截图笔记

WGAN中Lipschitz的具体实现.png

WGAN原始论文对1-Lipschitz约束的解决方法.png

WGAN-GP最终loss函数以及一些intuitional的解释.png

WGAN-GP有论文指出用谱范数可以满足Lipschitz约束.png

WGAN-GP新加项理解.png

WGAN-GP损失函数.png

WGAN-GP对data和G简单插值得到Ppenalty的问题和改进.png

WGAN-GP的提出.png

WGAN-GP的导数趋于1.png

Variational Auto-Encoder网络的简要模型.png

VAE与GAN相比的缺陷.png

VAE-GAN的具体步骤.png

VAE-GAN的简单流程.png

Unsupervised_CGAN的两种实现方法.png

TQ9}83]FX780DWJGZ6B2S[N.png

StackGan的简要原理.png

softplus激活函数.png

SemanticConsistencyGAN或者XGAN.png

ResNet实现以及shortcut的改进形式.png

QQ截图20210222220446.png

pytorch里面的cross_entropy和nll-loss.png

python修饰器.png

PatchGAN与凉宫春日.png

nn和F风格的层.png

module和data的.to().png

infoGAN的工作模式.png

grad中inplace的问题.png

GAN中虚假样本对于判别模型的重要性.png

GAN中求得D参数后G参数的求解以及JS散度和目标函数的关系.png

GAN中判别器的loss为什么是BinaryCrossEntropy.png

GAN中每次迭代Discriminator的进化.png

GAN中对G目标函数进行化简的推导和证明.jpg

GAN中JS散度为什么不合适.png

GAN中JS散度很有可能退化为常数值.png

GAN中D的最值求解.png

GAN一个解释和疑问.png

GAN先训练生成器的原因.png

GAN为什么G不宜更新过快.png

GAN实际操作时G的loss.png

GAN生成模型和判别模型的优势互补.png

GAN生成模型的最大似然求解.png

GAN全流程.png

GAN求解公式的意义.png

GAN清晰而VAE模糊的原因.png

GAN判别模型输出标量只是相对概念.png

GAN目标函数.png

GAN模型原始paper的对于生成和判别器的思路和公式.png

GAN的特点1.png

GAN的目标函和f-divergence任意替换的公式(原理在李宏毅第5课 意义不大 懒得贴出).png

flatten类.png

f-divergence的定义和一些性质.png

EMD之外的两种距离度量CD&HD.png

EMD的约束条件.jpg

EMD的优势.png

CycleVAEGAN(搁这叠buff呢).png

CycleGAN与隐写术与有效性.png

CycleGAN的简单原理.png

CGAN的生成判别模型的基本思路和公式.png

BiGAN的思路.png

BatchNormalization.png

1x1卷积核的作用.png

自定义linear层.png

自编码网络Decoder可视为一个Gennerator.png

训练数据的保存和加载.png

统计得到的rgb均值和方差,进行image normalization‘.png

通过transform生成更多训练样本.png

听说WGAN-GP配合Adam优化器有奇效.png

提取图片特征codes的三种方法.png

四元数运算法则.png

四元数旋转的理解.png

四元数乘法公式.png

申请模板.txt

切换到GPU上.png

判别模型作为生成器.png

模型类的另一种实现sequential.png

两种CGAN的模型.png

加上对code进行判别的VAEGAN.png

各种网络的性能比较.png

各种divergence对应于GAN的形式.png

反向传播中δ的意义.png

多层梯度反向传播.png

多层感知器求导.png

多层感知器代码.png

单个卷积层的结构和维度关系.png

单层感知器求导.png

单层感知器代码.png

从GAN到WGAN(-GP)的改进.png

WGAN中wasserstein距离的最终化简式子以及Lipschitz约束及其缺点.png